310 research outputs found

    Collaboratively Patching Linked Data

    Full text link
    Today's Web of Data is noisy. Linked Data often needs extensive preprocessing to enable efficient use of heterogeneous resources. While consistent and valid data provides the key to efficient data processing and aggregation we are facing two main challenges: (1st) Identification of erroneous facts and tracking their origins in dynamically connected datasets is a difficult task, and (2nd) efforts in the curation of deficient facts in Linked Data are exchanged rather rarely. Since erroneous data often is duplicated and (re-)distributed by mashup applications it is not only the responsibility of a few original publishers to keep their data tidy, but progresses to be a mission for all distributers and consumers of Linked Data too. We present a new approach to expose and to reuse patches on erroneous data to enhance and to add quality information to the Web of Data. The feasibility of our approach is demonstrated by example of a collaborative game that patches statements in DBpedia data and provides notifications for relevant changes.Comment: 2nd International Workshop on Usage Analysis and the Web of Data (USEWOD2012) in the 21st International World Wide Web Conference (WWW2012), Lyon, France, April 17th, 201

    Entity Type Prediction in Knowledge Graphs using Embeddings

    Get PDF
    Open Knowledge Graphs (such as DBpedia, Wikidata, YAGO) have been recognized as the backbone of diverse applications in the field of data mining and information retrieval. Hence, the completeness and correctness of the Knowledge Graphs (KGs) are vital. Most of these KGs are mostly created either via an automated information extraction from Wikipedia snapshots or information accumulation provided by the users or using heuristics. However, it has been observed that the type information of these KGs is often noisy, incomplete, and incorrect. To deal with this problem a multi-label classification approach is proposed in this work for entity typing using KG embeddings. We compare our approach with the current state-of-the-art type prediction method and report on experiments with the KGs

    Einführung in die Informatik II - Internet

    Get PDF

    Predicting wikipedia infobox type information using word embeddings on categories

    Get PDF
    Wikipedia has emerged as the largest multilingual, web based general reference work on the Internet. A huge amount of human resources have been invested in the creation and update of Wikipedia articles which are ideally complemented by so-called infobox templates defining the type of the underlying article. It has been observed that the Wikipedia infobox type information is often incomplete and inconsistent due to various reasons. However, the Wikipedia infobox type information plays a fundamental role for the RDF type information of Wikipedia based Knowledge Graphs such as DBpedia. This stimulates the need of always having the correct and complete infobox type information. In this work, we propose an approach to predict Wikipedia infobox types by using word embeddings on categories of Wikipedia articles, and analyze the impact of using minimal information from the Wikipedia articles in the prediction process

    Rechnernetze und Internettechnologien - Übungsblatt 10

    Get PDF
    Übungsblat

    Rechnernetze und Internettechnologie - Übungsblatt 08

    Get PDF
    Themenübersicht und Administratives zur Vorlesun

    Web 2.0 Technologien: Bibliotheken der Zukunft - Zukunft der Bibliotheken

    Get PDF
    Vortrag am 6. 9. 2006 auf der InetBib 2007 in Münste

    Lecture on Demand - Automatische Annotation und Suche in Multimediapräsentationen

    Get PDF
    Lectures on Demand - Automatische Annotation und Suche in Multimediapräsentationen Die Zahl der aufgezeichneten Lehrveranstaltungen und der zugehörigen multimedialen Vorlesungsmaterialien wächst beständig. Zwar bieten ausgereifte Datenbanksysteme die Möglichkeit, die dort archivierten Materialien über Schlüsselworte gezielt auszuzeichnen und nach diesen zu suchen, jedoch ist eine inhaltliche Suche und zielgenauer Zugriff auf Einzelinhalte in der Regel nicht möglich. Vorgestellt wird ein System zur automatischen Annotation von Vorlesungsaufzeichnungen, das die vom Dozenten verwendete Präsentation als Grundlage für die semantische Auszeichnung einzelner Vorlesungsabschnitte verwendet. Darauf aufbauend wurde eine Suchmaschine realisiert, die es erlaubt, aus einem entsprechend annotierten Vorlesungsdatenbestand über die Angabe einzelner Suchbegriffe genau diejenigen Vorlesungsabschnitte herauszufiltern, die tatsächlich in einem inhaltlichem Zusammenhang stehen. Dadurch hat der Nutzer die Möglichkeit, sich eine eigene 'maßgeschneiderte' Vorlesung entsprechend seinen Informationsbedürfnissen zusammenstellen

    Der Computer als universales Kommunikationsmedium

    Get PDF
    Neben einer ersten Übersicht der in diesem Semester behandelten Themen ist die Entwicklung der Kommunikationsmedien -- insbesondere des Computers -- Gegenstand dieser Vorlesung. Dabei wird die Geschichte der Medien, angefangen von den ersten Höhlenzeichnungen bis hin zum allgegenwärtigen, ubiquitären Computernetz aufgegriffen. Die Entwicklung des Internets als universales demokratisches Kommunikations- und informationsmedium ist natürlich eng verknüpft mit der ständig fortschreitenden technischen Evolution des Computers mit dem Ziel einer grenzenlosen und unbeschränkten Kommunikation
    corecore